Acquiring a better understanding of drought impacts becomes increasingly vital under a warming climate. Traditional drought indices describe mainly biophysical variables and not impacts on social, economic, and environmental systems. We utilized natural language processing and bidirectional encoder representation from Transformers (BERT) based transfer learning to fine-tune the model on the data from the news-based Drought Impact Report (DIR) and then apply it to recognize seven types of drought impacts based on the filtered Twitter data from the United States. Our model achieved a satisfying macro-F1 score of 0.89 on the DIR test set. The model was then applied to California tweets and validated with keyword-based labels. The macro-F1 score was 0.58. However, due to the limitation of keywords, we also spot-checked tweets with controversial labels. 83.5% of BERT labels were correct compared to the keyword labels. Overall, the fine-tuned BERT-based recognizer provided proper predictions and valuable information on drought impacts. The interpretation and analysis of the model were consistent with experiential domain expertise.
translated by 谷歌翻译
我们提出了一种拓扑优化的样品深度学习策略。我们的端到端方法受到监督,包括基于物理学的预处理和模棱两可的网络。我们分析了深度学习管道的不同组成部分如何通过大规模比较影响所需的培训样品的数量。结果表明,包括物理概念不仅会极大地提高样本效率,还可以提高预测的身体正确性。最后,我们发布了两个拓扑优化数据集,其中包含问题和相应的地面真相解决方案。我们相信这些数据集将提高该领域的可比性和未来进度。
translated by 谷歌翻译
以前的工作在很大程度上通过“偏见”的透镜指定的镜头考虑了图像字幕系统的公平性。相比之下,我们提供了一组技术,用于测量五种类型的代表性危害以及使用最流行的图像标题数据集获得的最终测量结果。我们的目标不是审核此图像字幕系统,而是要开发规范性的测量技术,进而提供了一个机会来反思所涉及的许多挑战。我们提出了每种危害类型的多种测量技术。我们认为,这样做可以更好地捕获每种危害的多方面性质,从而改善了所得测量值的(集体)有效性。在整个过程中,我们讨论了我们的测量方法的基础假设,并指出了它们不进行的假设。
translated by 谷歌翻译
可解释的人工智能的最新发展有望改变人类机器人互动的潜力:机器人决策的解释可能会影响用户的看法,证明其可靠性并提高信任。但是,尚未对解释其决定的机器人看法的影响进行彻底研究。为了分析可解释的机器人的效果,我们进行了一项研究,其中两个模拟机器人可以玩竞争性棋盘游戏。当一个机器人解释其动作时,另一个机器人只宣布它们。提供有关其行为的解释不足以改变机器人的感知能力,智力,可爱性或安全等级。但是,结果表明,解释其动作的机器人被认为是更活泼和人类的。这项研究证明了对可解释的人类机器人相互作用的必要性和潜力,以及对其效应作为新的研究方向的更广泛评估。
translated by 谷歌翻译
使用黑框模型(例如神经普通微分方程(ODE))对动态系统的端到端学习为从数据中学习动力学的灵活框架提供了一个灵活的框架,而无需为动力学开出数学模型。不幸的是,这种灵活性是基于理解动态系统的成本,而该系统无处不在。此外,在各种条件(输入)(例如处理)或以某种方式分组(例如子人群的一部分)中收集了实验数据。了解这些系统输入对系统输出的影响对于具有动态系统的任何有意义的模型至关重要。为此,我们提出了一个结构化的潜在ode模型,该模型明确捕获了其潜在表示内的系统输入变化。在静态潜在变量规范的基础上,我们的模型学习了(独立的)随机因素,每个输入的系统输入的变异因素,从而将系统输入在潜在空间中的效果分开。该方法通过受控生成的时间序列数据提供了可行的建模,以实现新颖的输入组合(或扰动)。此外,我们提出了一种量化不确定性的灵活方法,利用分位数回归公式。在受到挑战的生物数据集上,在观测数据的受控生成和生物学上有意义的系统输入的推理中,对竞争基准的结果保持一致。
translated by 谷歌翻译
由于生产和依赖数据集以产生自动化决策系统(广告)增加,因此需要评估和询问底层数据的过程。在2018年启动数据集营养标签后,数据营养项目已对标签的设计和目的进行了重大更新,并在2020年代后期推出更新的标签,该标签在本文中预览。新标签包括通过针对数据科学家配置文件的更新的设计和用户界面提供的上下文专用用例和警报。本文讨论了标签旨在减轻的潜在培训数据的危害和偏见,包括标记,新的和现有挑战以及工作的进一步方向,以及预览新的新数据集标签。
translated by 谷歌翻译
基于事件的视觉传感器基于视觉场景的变化产生具有高时间分辨率的异步事件流。随着事件的生成,这些传感器的特性允许精确快速地计算光学流量。对于从事件数据计算光学流的现有解决方案未能由于孔径问题而无法捕获真正的运动方向,请勿使用传感器的高时间分辨率,或者在嵌入式平台上实时运行太昂贵。在这项研究中,我们首先提供了我们之前的算法,武器(光圈稳健的多尺度流)的更快版本。新的优化软件版本(农场)显着提高了传统CPU的吞吐量。此外,我们呈现危害,一种农场算法的硬件实现,允许实时计算低功耗,嵌入式平台上的真实流量。建议的危害架构针对混合系统的片上器件,旨在最大限度地提高可配置性和吞吐量。硬件架构和农场算法是用异步的神经形态处理而开发的,放弃了事件帧的常用使用,而是仅使用不同事件的小历史运行,允许独立于传感器分辨率进行缩放。与现有方法相比,处理范例的这种变化将流量方向的估计变为高达73%,并在选择的基准配置上显示出危害最高为1.21 Mevent / s的危害。此吞吐量使实时性能能够实现迄今为止迄今为止最快速的基于活动的事件的光流的实现。
translated by 谷歌翻译
无数应用程序取决于具有现代物体探测器的可靠置信度估计的准确预测。然而,众所周知,包括对象探测器的神经网络产生错误的置换置信度估计。最近的工作甚至表明,探测器的置信度预测是关于对象大小和位置的偏置,但仍然尚不清楚该偏差如何涉及受影响的对象检测器的性能。我们正式证明,条件置信度偏差损害了对象探测器的预期性能,并经验验证这些发现。具体而言,我们演示了如何修改直方图融合校准,不仅避免性能障碍,而且还通过条件置信度校准提高性能。我们进一步发现,在探测器的训练数据上产生的检测中也存在置信度偏差,我们利用在不使用其他数据的情况下执行我们的去偏置。此外,测试时间增强放大了这种偏差,从我们的校准方法产生了更大的性能。最后,我们在不同的对象检测架构上验证了我们的调查结果,并在没有额外数据或培训的情况下显示最多0.6张地图和0.8 MAP50的改进。
translated by 谷歌翻译
许多教育技术使用人工智能(AI)向学习者提供生成或产生的语言。我们争辩说,所有语言,包括所有AI通信,编码有关为制备语言制作的人类或人类的身份的信息。然而,通过AI通信,用户可以索引与源不匹配的标识信息。如果与一个文化群体相关的语言被呈现为“标准”或“中性”,如果语言优势一个群体,或者语言强化负刻板印象,这会导致代表性危害。在这项工作中,我们讨论使用涉及从有针对性的人口组收集众包数据的视觉问题生成(VQG)任务的案例研究。生成的问题将呈现给人类评估人员,了解他们如何指定语言背后的身份,以及如何感知任何代表性危害,以及如何理想地解决AI通信造成的任何此类危害。我们反映了这项工作的教育应用,以及对平等,多样性和包容性的影响(EDI)。
translated by 谷歌翻译
许多现代的机器学习算法通过在与性别或种族等敏感属性相关的粗略定义的群体之间执行公平限制来减轻偏见。但是,这些算法很少说明组内异质性和偏见可能会对组的某些成员产生不成比例。在这项工作中,我们表征了社会规范偏见(Snob),这是一种微妙但因此的算法歧视类型,即使这些系统实现了群体公平目标,也可以通过机器学习模型展示。我们通过职业分类中的性别偏见来研究这个问题。我们通过衡量算法的预测与推断性别规范的一致性相关,来量化势利小人。当预测一个人是否属于男性主导的职业时,该框架表明,“公平”的分类者仍然以与推断的男性规范相符的方式写的传记。我们比较跨算法公平方法的势利小人,并表明它通常是残留的偏见,而后处理方法根本不会减轻这种偏见。
translated by 谷歌翻译